Objective: Despite numerous studies proposed for audio restoration in the literature, most of them focus on an isolated restoration problem such as denoising or dereverberation, ignoring other artifacts. Moreover, assuming a noisy or reverberant environment with limited number of fixed signal-to-distortion ratio (SDR) levels is a common practice. However, real-world audio is often corrupted by a blend of artifacts such as reverberation, sensor noise, and background audio mixture with varying types, severities, and duration. In this study, we propose a novel approach for blind restoration of real-world audio signals by Operational Generative Adversarial Networks (Op-GANs) with temporal and spectral objective metrics to enhance the quality of restored audio signal regardless of the type and severity of each artifact corrupting it. Methods: 1D Operational-GANs are used with generative neuron model optimized for blind restoration of any corrupted audio signal. Results: The proposed approach has been evaluated extensively over the benchmark TIMIT-RAR (speech) and GTZAN-RAR (non-speech) datasets corrupted with a random blend of artifacts each with a random severity to mimic real-world audio signals. Average SDR improvements of over 7.2 dB and 4.9 dB are achieved, respectively, which are substantial when compared with the baseline methods. Significance: This is a pioneer study in blind audio restoration with the unique capability of direct (time-domain) restoration of real-world audio whilst achieving an unprecedented level of performance for a wide SDR range and artifact types. Conclusion: 1D Op-GANs can achieve robust and computationally effective real-world audio restoration with significantly improved performance. The source codes and the generated real-world audio datasets are shared publicly with the research community in a dedicated GitHub repository1.
translated by 谷歌翻译
Continuous long-term monitoring of motor health is crucial for the early detection of abnormalities such as bearing faults (up to 51% of motor failures are attributed to bearing faults). Despite numerous methodologies proposed for bearing fault detection, most of them require normal (healthy) and abnormal (faulty) data for training. Even with the recent deep learning (DL) methodologies trained on the labeled data from the same machine, the classification accuracy significantly deteriorates when one or few conditions are altered. Furthermore, their performance suffers significantly or may entirely fail when they are tested on another machine with entirely different healthy and faulty signal patterns. To address this need, in this pilot study, we propose a zero-shot bearing fault detection method that can detect any fault on a new (target) machine regardless of the working conditions, sensor parameters, or fault characteristics. To accomplish this objective, a 1D Operational Generative Adversarial Network (Op-GAN) first characterizes the transition between normal and fault vibration signals of (a) source machine(s) under various conditions, sensor parameters, and fault types. Then for a target machine, the potential faulty signals can be generated, and over its actual healthy and synthesized faulty signals, a compact, and lightweight 1D Self-ONN fault detector can then be trained to detect the real faulty condition in real time whenever it occurs. To validate the proposed approach, a new benchmark dataset is created using two different motors working under different conditions and sensor locations. Experimental results demonstrate that this novel approach can accurately detect any bearing fault achieving an average recall rate of around 89% and 95% on two target machines regardless of its type, severity, and location.
translated by 谷歌翻译
恢复质量差的图像与一组混合伪影对于可靠的诊断起着至关重要的作用。现有的研究集中在特定的恢复问题上,例如图像过度,去核和暴露校正,通常对伪影类型和严重性有很强的假设。作为盲X射线恢复的先驱研究,我们提出了一个通用图像恢复和分类的联合模型:恢复分类为分类的生成对抗网络(R2C-GAN)。这种共同优化的模型使恢复后保持任何疾病完整。因此,由于X射线图像质量的提高,这自然会导致更高的诊断性能。为了实现这一关键目标,我们将恢复任务定义为图像到图像的翻译问题,从差异,模糊或暴露不足/暴露不足的图像到高质量的图像域。提出的R2C-GAN模型能够使用未配对的训练样本在两个域之间学习前进和逆变换。同时,联合分类在恢复过程中保留了疾病标签。此外,R2C-GAN配备了操作层/神经元,可降低网络深度,并进一步增强恢复和分类性能。拟议的联合模型对2019年冠状病毒病(COVID-19)分类的卡塔-COV19数据集进行了广泛的评估。拟议的恢复方法达到了90%以上的F1得分,这显着高于任何深层模型的性能。此外,在定性分析中,R2C-GAN的恢复性能得到了一群医生的批准。我们在https://github.com/meteahishali/r2c-gan上共享软件实施。
translated by 谷歌翻译
尽管CNN的性能卓越,但将它们部署在低计算功率设备上仍然有限,因为它们通常在计算上昂贵。高复杂性的一个关键原因是卷积层与完全连接的层之间的连接,通常需要大量参数。为了减轻此问题,最近提出了一系列功能(BOF)合并。 BOF学习了一个字典,该字典用于编译输入的直方图表示。在本文中,我们提出了一种基于BOF Poling之上的方法,以确保学习词典的项目不是冗余的,以提高其效率。我们根据词典项目的成对相关性提出了一个额外的损失项,该词典的配对相关性补充了标准损失,以明确规范模型以学习更多样化和丰富的词典。提出的策略产生了BOF的有效变体,并进一步提高了其性能,而无需任何其他参数。
translated by 谷歌翻译
本文提出了一个低成本且高度准确的ECG监测系统,用于针对可穿戴移动传感器的个性化早期心律不齐检测。对个性化心电图监测的早期监督方法需要异常和正常的心跳来训练专用分类器。但是,在真实的情况下,个性化算法嵌入了可穿戴设备中,这种训练数据不适合没有心脏障碍史的健康人。在这项研究中,(i)我们对通过稀疏字典学习获得的健康信号空间进行了无空间分析,并研究了如何简单的无效空间投影或基于最小二乘的规范性分类方法可以降低计算复杂性,而无需牺牲牺牲计算的复杂性。与基于稀疏表示的分类相比,检测准确性。 (ii)然后,我们引入了基于稀疏表示的域适应技术,以便将其他现有用户的异常和正常信号投射到新用户的信号空间上,使我们能够训练专用的分类器而无需​​新用户的任何异常心跳。因此,无需合成异常的心跳产生,可以实现零射学习。在基准MIT-BIH ECG数据集上执行的一组大量实验表明,当该基于域的基于域的训练数据生成器与简单的1-D CNN分类器一起使用时,该方法以明显的差距优于先前的工作。 (iii)然后,通过组合(i)和(ii),我们提出了一个整体分类器,以进一步提高性能。这种零射门心律失常检测的方法的平均准确性水平为98.2%,F1得分为92.8%。最后,使用上述创新提出了一个个性化的节能ECG监测计划。
translated by 谷歌翻译
经典图像去噪方法利用非本地自相似原理来有效地从嘈杂的图像中恢复图像内容。目前的最先进的方法使用深卷积神经网络(CNNS),以有效地学习从嘈杂到清洁图像的映射。深度去噪CNNS表现出高学习能力,并集成了由于大量隐藏层所产生的大型接收领域而整合非本地信息。然而,深网络也是计算复杂的并且需要大数据进行培训。为了解决这些问题,本研究旨在通过一种新的神经元模型赋予自组织的操作神经网络(自我onns)的重点,该模型可以通过紧凑且浅的模型实现类似或更好的去噪性能。最近,已经引入了超神经元的概念,其通过利用未局限性的内核位置来增强生成神经元的非线性变换,以获得增强的接受场大小。这是赋予深度网络配置需求的关键成就。由于已知非本地信息的整合受益于去噪,在这项工作中,我们研究了超神经元对合成和现实世界图像去噪的使用。我们还讨论了在GPU上实施超神经元模型的实际问题,并提出了非本地化操作的异质性与计算复杂性之间的权衡。我们的结果表明,具有相同的宽度和深度,具有超级神经元的自动onn,具有对具有生成和卷积神经元的网络的去噪性能,为脱结任务提供了显着的促进。此外,结果表明,具有超神经元的自串,可以分别为合成和真实世界的众所周知的众所周知的深层CNN去噪者达到竞争和优越的合成表演。
translated by 谷歌翻译
最近,对卷积神经网络(CNNS)的注意机制越来越令人兴趣,以解决计算机视觉任务。大多数这些方法学会了解明确地识别和突出场景的相关部分并将参与图像传递给网络的其他层。在本文中,我们认为这种方法可能不是最佳的。可以说,明确地学习图像的哪些部分是相关的,通常比学习图像的图像较小的哪些部分更难,因此应该忽略。事实上,在视觉域中,存在许多易于识别的无关功能模式。例如,接近边界的图像区域不太可能包含分类任务的有用信息。基于这个想法,我们建议在CNNS中重构注意力机制,以学会忽略而不是学习参加。具体而言,我们建议明确地学习场景中的无关信息,并在产生的表示中抑制它,只保留重要属性。这种隐式关注方案可以纳入任何现有的注意机制。在这项工作中,我们使用最近的两个注意方法挤压和激励(SE)块和卷积块注意模块(CBAM)来验证这个想法。不同数据集和模型架构上的实验结果表明,学习忽略,即隐含的注意力,与标准方法相比,产生卓越的性能。
translated by 谷歌翻译
心肌梗塞(MI)是世界上死亡率的主要原因,由于饲喂心肌的冠状动脉堵塞。通过促进早期治疗干预措施,MI及其本土化的早期诊断可以减轻心肌损伤的程度。在冠状动脉堵塞后,缺血性心肌细分的区域壁运动异常(RWMA)是最早进入的变化。超声心动图是评估任何RWMA的基本工具。仅从单个超声心动图视图评估左心室(LV)壁的运动可能导致缺少MI的诊断,因为RWMA可能在该特定视图上不可见。因此,在本研究中,我们建议熔化顶端4室(A4C)和顶端2室(A2C)视图,其中可以分析总共11个心肌段的MI检测。所提出的方法首先通过活性多项式(AP)估计LV壁的运动,其提取并跟踪心内膜边界以计算心肌段位移。从A4C和A2C视图位移中提取的特征,该位移融合并馈送到分类器中以检测MI。本研究的主要贡献是1)通过包括A4C和A2C视图的共同分享与研究界的260个超声心动图录制,2)提高了阈值前后工作的性能基于机器学习的方法基于机器的AP,3)通过融合A4C和A2C视图的信息来通过多视图超声心动图进行先驱MI检测方法。实验结果表明,该方法达到了90.91%的敏感性和86.36%的MI检测精度,对多视角超声心动图进行了多视觉检测。
translated by 谷歌翻译
在本文中,我们提出了一个新颖的子空间学习框架,用于一级分类。提出的框架以图形嵌入形式提出了问题。它包括先前提出的子空间一级技术作为特殊情况,并进一步了解这些技术实际优化了什么。该框架允许通过保留图表结合其他有意义的优化目标,并揭示光谱解决方案和基于光谱回归的解决方案作为先前基于梯度的技术的替代方案。我们将子空间学习框架与支持向量数据描述在子空间中应用,以制定图形包含的子空间支持向量数据描述。我们通过实验分析了新提出的不同变体的性能。我们证明了针对基准的性能以及最近提出的单级分类子空间学习方法。
translated by 谷歌翻译